Nouvelle méthode MYTHIQUE : les robots détectent les objets | Karlobag.eu

Révolution en robotique : la nouvelle méthode du mit permet aux machines de « sentir » le poids et la douceur des objets simplement en les touchant

Des chercheurs du mit, d'Amazon Robotics et de l'Université de la Colombie-Britannique ont mis au point une technique innovante qui permet aux robots d'évaluer le poids, la douceur et d'autres propriétés physiques des objets à l'aide de capteurs internes et d'une simulation différentiable avancée uniquement. Cette méthode, basée sur la proprioception, fonctionne également sans caméras externes.

Révolution en robotique : la nouvelle méthode du mit permet aux machines de « sentir » le poids et la douceur des objets simplement en les touchant
Photo by: Domagoj Skledar/ arhiva (vlastita)

Dans un monde de plus en plus dépendant de l'automatisation, la capacité des robots à comprendre et à interagir avec les objets physiques de leur environnement devient cruciale. De nouvelles recherches ouvrent la voie à un avenir où les machines pourront évaluer les propriétés des objets, telles que leur poids ou leur souplesse, simplement en les soulevant et en les secouant, à l'instar des humains. Cette avancée, fruit d'une collaboration entre des scientifiques d'institutions prestigieuses telles que le Massachusetts Institute of Technology (MIT), Amazon Robotics et l'Université de la Colombie-Britannique, promet de révolutionner la manière dont les robots apprennent et opèrent dans des environnements complexes.


Des sens internes : Un nouveau paradigme dans la perception robotique


Traditionnellement, les robots se sont largement appuyés sur des capteurs externes, tels que des caméras et des systèmes de vision par ordinateur, pour collecter des informations sur les objets. Cependant, la nouvelle méthode déplace l'attention vers les capteurs internes, permettant aux robots de "sentir" les propriétés physiques des objets. Cette technique ne nécessite pas d'outils de mesure externes coûteux ni de caméras, ce qui la rend extrêmement utile dans les situations où la visibilité est limitée ou où les caméras pourraient être moins efficaces. Imaginez un robot triant des objets dans un sous-sol sombre ou déblayant des décombres après un tremblement de terre – c'est précisément dans de tels scénarios que cette innovation montre tout son potentiel.


Le cœur de cette approche réside dans l'utilisation de la proprioception, la capacité d'un robot (ou d'un humain) à sentir son propre mouvement et sa position dans l'espace. Tout comme une personne soulevant un poids dans une salle de sport sent sa lourdeur à travers les muscles et les articulations de son bras, un robot peut "sentir" le poids d'un objet à travers les multiples articulations de son bras robotique. Les chercheurs soulignent que, bien que les humains ne disposent pas de mesures extrêmement précises des angles articulaires ou de la quantité exacte de couple qu'ils appliquent, les robots possèdent ces capacités grâce à des capteurs avancés intégrés dans leurs moteurs.


Comment les robots "apprennent-ils" par le toucher ?


Lorsqu'un robot soulève un objet, le système collecte des signaux provenant des codeurs articulaires. Les codeurs sont des capteurs qui détectent la position et la vitesse de rotation des articulations pendant le mouvement. La plupart des robots modernes possèdent déjà des codeurs à l'intérieur des moteurs qui animent leurs parties mobiles, ce qui rend cette technique plus rentable par rapport aux approches nécessitant des composants supplémentaires tels que des capteurs tactiles ou des systèmes complexes de suivi par vision.


Le système s'appuie sur deux modèles clés pour estimer les propriétés de l'objet lors de l'interaction : l'un qui simule le robot lui-même et ses mouvements, et l'autre qui simule la dynamique de l'objet. Peter Yichen Chen, chercheur postdoctoral au MIT et auteur principal de l'article sur cette technique, souligne l'importance de disposer d'un "jumeau numérique" précis du monde réel pour le succès de la méthode. L'algorithme observe le mouvement du robot et de l'objet lors de l'interaction physique et utilise les données des codeurs articulaires pour calculer à rebours et identifier les propriétés de l'objet. Par exemple, un objet plus lourd se déplacera plus lentement qu'un objet plus léger si le robot applique la même quantité de force.


Ce processus permet au robot d'estimer avec précision des paramètres tels que la masse de l'objet en quelques secondes seulement. L'équipe de recherche a démontré que sa technique est aussi performante pour deviner la masse d'un objet que certaines méthodes plus complexes et coûteuses impliquant la vision par ordinateur. Un avantage supplémentaire est la robustesse de l'approche, qui est économe en données et capable de gérer de nombreux types de scénarios inédits, où le robot rencontre des objets qu'il n'avait pas "rencontrés" auparavant.


La puissance de la simulation différentiable


Un élément clé permettant cette estimation rapide et précise est une technique appelée simulation différentiable. Ce processus de simulation avancé permet à l'algorithme de prédire comment de petits changements dans les propriétés de l'objet, telles que la masse ou la souplesse, affectent la position finale des articulations du robot. En d'autres termes, la simulation peut "différencier" les effets de différents paramètres physiques sur le mouvement du robot.


Pour construire ces simulations complexes, les chercheurs ont utilisé la bibliothèque NVIDIA Warp, un outil open source pour les développeurs qui prend en charge les simulations différentiables. Warp permet aux développeurs d'écrire des programmes accélérés par GPU pour la simulation, l'intelligence artificielle et l'apprentissage automatique directement en Python, offrant des performances comparables au code CUDA natif tout en maintenant la productivité de Python. Une fois que la simulation différentiable correspond aux mouvements réels du robot, le système a identifié avec succès la propriété correcte. L'algorithme peut y parvenir en quelques secondes et n'a besoin que d'une seule trajectoire réelle du robot en mouvement pour effectuer les calculs.


Chao Liu, également chercheur postdoctoral au MIT et l'un des co-auteurs de l'étude, explique : "Techniquement, tant que vous connaissez le modèle de l'objet et la manière dont le robot peut appliquer une force sur cet objet, vous devriez être capable de déterminer le paramètre que vous souhaitez identifier." Bien que les chercheurs se soient principalement concentrés sur l'apprentissage de la masse et de la souplesse d'un objet, leur technique a le potentiel de déterminer également d'autres propriétés, telles que le moment d'inertie ou la viscosité d'un liquide à l'intérieur d'un récipient.


Avantages et orientations futures


L'un des avantages significatifs de cette approche est son indépendance vis-à-vis de vastes ensembles de données d'entraînement, contrairement à certaines méthodes qui reposent sur la vision par ordinateur ou des capteurs externes. Cela la rend moins sujette aux échecs face à des environnements inconnus ou à de nouveaux objets. Les robots dotés de cette capacité pourraient être considérablement plus adaptables et ingénieux.


À l'avenir, l'équipe de recherche prévoit de combiner sa méthode avec la vision par ordinateur pour créer une technique de perception multimodale qui serait encore plus puissante. "Ce travail n'essaie pas de remplacer la vision par ordinateur. Les deux méthodes ont leurs avantages et leurs inconvénients. Mais ici, nous avons montré que même sans caméra, nous pouvons déjà déterminer certaines de ces propriétés", déclare Chen. L'intégration de différentes modalités sensorielles pourrait conduire à des robots dotés d'une perception environnementale extrêmement sophistiquée.


Il existe également un intérêt pour l'exploration d'applications avec des systèmes robotiques plus compliqués, tels que les robots souples (soft robots), dont les corps flexibles présentent des défis et des opportunités uniques pour l'interaction sensorielle. De même, il est prévu d'étendre la technique à des objets plus complexes, y compris les liquides ballottants (sloshing liquids) ou les milieux granulaires comme le sable. Comprendre la dynamique de tels matériaux uniquement par interaction tactile constituerait une avancée significative.


L'objectif à long terme est d'appliquer cette technique pour améliorer l'apprentissage des robots, permettant aux futures générations de robots de développer rapidement de nouvelles compétences de manipulation et de s'adapter aux changements de leur environnement. "Déterminer les propriétés physiques des objets à partir de données a longtemps été un défi en robotique, en particulier lorsque seules des mesures limitées ou bruitées sont disponibles", a commenté Miles Macklin, directeur principal de la technologie de simulation chez NVIDIA, qui n'a pas participé à cette recherche. "Ce travail est important car il montre que les robots peuvent déduire avec précision des propriétés telles que la masse et la souplesse en utilisant uniquement leurs capteurs articulaires internes, sans recourir à des caméras externes ou à des outils de mesure spécialisés."


Cette avancée ouvre la vision de robots explorant le monde de manière autonome, touchant et déplaçant des objets dans leur environnement, et apprenant ainsi les propriétés de tout ce avec quoi ils interagissent. Une telle capacité ferait non seulement progresser l'automatisation industrielle, mais aurait également un impact profond sur des domaines tels que l'aide domestique, les soins médicaux et la recherche en environnements dangereux. La capacité des robots à "sentir" et à comprendre le monde qui les entoure d'une manière plus intuitive, plus humaine, est essentielle à leur intégration plus complète dans notre vie quotidienne. Le financement de ces travaux prometteurs a été partiellement assuré par Amazon et le programme de recherche GIST-CSAIL, signalant l'intérêt de l'industrie pour les applications pratiques de telles technologies.


Le développement de telles technologies incite également à la réflexion sur l'avenir de l'interaction homme-robot. À mesure que les robots deviennent de plus en plus capables de percevoir et de réagir à leur environnement de manière subtile, de nouvelles possibilités de collaboration et de travail d'équipe s'ouvrent. La vision de Peter Yichen Chen de robots explorant et apprenant de manière autonome les propriétés des objets par le toucher n'est pas seulement un objectif technique, mais aussi une étape vers la création de systèmes plus intelligents et autonomes capables d'aider l'humanité à résoudre des problèmes complexes.

Source : Massachusetts Institute of Technology

TROUVEZ UN HÉBERGEMENT À PROXIMITÉ

Heure de création: 8 heures avant

AI Lara Teč

AI Lara Teč est une journaliste IA innovante de notre portail mondial, spécialisée dans la couverture des dernières tendances et réalisations dans le monde de la science et de la technologie. Grâce à sa connaissance experte et à son approche analytique, Lara fournit des insights approfondis et des explications sur les sujets les plus complexes, les rendant accessibles et compréhensibles pour tous les lecteurs à travers le monde.

Analyse Experte et Explications Claires Lara utilise son expertise pour analyser et expliquer des sujets scientifiques et technologiques complexes, en se concentrant sur leur importance et leur impact sur la vie quotidienne. Qu'il s'agisse des dernières innovations technologiques, des percées dans la recherche ou des tendances dans le monde numérique, Lara offre des analyses approfondies et des explications, mettant en lumière les aspects clés et les implications potentielles pour les lecteurs.

Votre Guide à Travers le Monde de la Science et de la Technologie Les articles de Lara sont conçus pour vous guider à travers le monde complexe de la science et de la technologie, en fournissant des explications claires et précises. Sa capacité à décomposer des concepts complexes en parties compréhensibles fait de ses articles une ressource indispensable pour tous ceux qui souhaitent rester informés des dernières avancées scientifiques et technologiques.

Plus qu'une IA - Votre Fenêtre sur le Futur AI Lara Teč n'est pas seulement une journaliste ; elle est une fenêtre sur l'avenir, offrant des aperçus sur de nouveaux horizons en science et en technologie. Son expertise et son analyse approfondie aident les lecteurs à comprendre et à apprécier la complexité et la beauté des innovations qui façonnent notre monde. Avec Lara, restez informé et inspiré par les dernières réalisations que le monde de la science et de la technologie a à offrir.

AVIS À NOS LECTEURS
Karlobag.eu fournit des actualités, des analyses et des informations sur les événements mondiaux et les sujets d'intérêt pour les lecteurs du monde entier. Toutes les informations publiées sont fournies à titre informatif uniquement.
Nous soulignons que nous ne sommes pas des experts dans les domaines scientifique, médical, financier ou juridique. Par conséquent, avant de prendre toute décision basée sur les informations de notre portail, nous vous recommandons de consulter des experts qualifiés.
Karlobag.eu peut contenir des liens vers des sites externes de tiers, y compris des liens affiliés et des contenus sponsorisés. Si vous achetez un produit ou un service via ces liens, nous pouvons percevoir une commission. Nous n'avons aucun contrôle sur le contenu ou les politiques de ces sites et déclinons toute responsabilité quant à leur exactitude, leur disponibilité ou toute transaction effectuée via ces liens.
Si nous publions des informations sur des événements ou des ventes de billets, veuillez noter que nous ne vendons pas de billets, ni directement ni par l'intermédiaire. Notre portail informe uniquement les lecteurs des événements et des possibilités d'achat via des plateformes de vente externes. Nous mettons en relation les lecteurs avec des partenaires offrant des services de vente de billets, sans garantir leur disponibilité, leurs prix ou leurs conditions d'achat. Toutes les informations concernant les billets sont fournies par des tiers et peuvent être modifiées sans préavis. Nous vous recommandons de vérifier attentivement les conditions de vente auprès du partenaire choisi avant tout achat.
Toutes les informations sur notre portail peuvent être modifiées sans préavis. En utilisant ce portail, vous acceptez de lire le contenu à vos risques et périls.